Przyszły te czasy że różni twórcy są już niepotrzebni, już od wielu lat nie potrzebni są też robotnicy w fabrykach, bo wyręczają ich maszyny, specjalnie ramiona, które składają różne produkty, malują i wykonują wiele innych czynności a do tego nie strajkują i pracują przez 24h na dobę. Co więcej, zbędni są już nawet malarze, śpiewacy czy twórcy filmów! Dlaczego? bo obecnie wpisując kilka słów do specjalnych BOTów możesz sobie stworzyć dowolny obraz i to nawet taki, który wygra z malarstwem znanych autorów jak Vincent van Gogh , możesz stworzyć sobie nawet muzykę, słowa piosenek i do tego melodię, swoją drogą mam ważenie że tą muzykę byle jaką słyszę w radiu już od kilku lat, już chyba wiem gdzie powstawała. 😂 W przygotowaniu jest także specjalny BOT, który po wpisaniu kilku słów, może stworzyć dla ciebie film i to w jakości kinowej. Do czego jeszcze zdolna jest obecnie sztuczna inteligencja, a na przykład do skłonienia człowieka do popełnienia samob0ja. Gdzie to wszystko zajdzie i czy ludzie są już straceni?
Obecnie sztuczna inteligencja AI to nie tylko słynny chat GPT, z którym możesz porozmawiać jak z człowiekiem i odpowie ci na każde zadane pytanie, to także:
- narzędzia do wskrzeszania zmarłych, wystarczy wgrać np. książkę Mein Kampf i możesz porozmawiać nawet z Hitlerem, możesz rozmawiać z dowolną osobą która zmarła, wystarczy wgrać ich pamiętniki lub wszystko co napisali lub co głosili i co zostało spisane za ich życia
-narzędzia do tworzenia muzyki z dowolnego gatunku, a nawet utworzenia do tego całych akapitów tekstu muzyki a dodatkowo stworzenie do muzyki teledysków
- narzędzie do tworzenia artystycznych dzieł malarskich
i wiele wiele innych rzeczy.
Zobacz tez:
https://www.unite.ai/pl/best-ai-video-generators/
Przejrzyj te ciekawe artykuły:
żródło: https://www.listyznaszegosadu.pl/pl/article_print.php?id=995679
Ekstremiści już planują wykorzystanie AI
Neo-naziści, zwolennicy białej supremacji i grupy antyrządowe – brutalni ekstremiści dyskutują i publikują posty na platformach społecznościowych na temat wykorzystania sztucznej inteligencji. Prywatnie i otwarcie rozmawiają o sztucznej inteligencji, testują ją i wykorzystują, a także opracowują własne wersje i rekrutują inżynierów oraz zespoły do specjalnych projektów, w tym do włamań do banków.
Najbardziej niepokojące przykłady znalezione przez zespół badawczy MEMRI Domestic Terrorism Threat Monitor (DTTM) dotyczą ekstremistów omawiających praktyczne wykorzystanie sztucznej inteligencji do planowania ataków terrorystycznych, w tym do produkcji broni masowego rażenia. Jedna z akceleracjonistycznych grup, której celem jest doprowadzenie do całkowitego upadku społeczeństwa, przeprowadziła ostatnio w grupie na Facebooku rozmowę o próbie skłonienia bota czatu AI, aby dostarczył szczegółów dotyczących wytwarzania gazu musztardowego i napalmu. Te i inne przykłady są wyszczególnione w nowym raporcie MEMRI DTTM, który zostanie opublikowany jeszcze w tym miesiącu.
W raporcie jest również informacja o przywódcy organizacji znajdującej się na liście grup terrorystycznych (były kontrahent rządu USA, który często nawołuje do ataków na terenie USA ze swojej bezpiecznej przystani w Rosji), który opublikował porady generowane przez ChatGPT dotyczące angażowania się w wojnę partyzancką i dotyczące infrastruktury krytycznej w USA, które byłyby najbardziej narażone na atak. ChatGPT powiedział, że najbardziej wrażliwą infrastrukturą w USA jest „sieć elektryczna”.
Inni mówią o wykorzystaniu sztucznej inteligencji do planowania zbrojnych powstań w celu obalenia obecnego systemu rządów USA i o udostępnianiu stworzonych przez sztuczną inteligencję wersji amerykańskich flag, mundurów wojskowych i projektów graficznych Białego Domu. Omawiają również wykorzystanie sztucznej inteligencji do rekrutacji oraz szerzenia swojej ideologii i propagandy w Internecie, w tym za pomocą tworzonych przez siebie filmów. Już rozprzestrzeniły się błyskawicznie na ich platformach filmy Deepfake, na których Hitler wygłasza przemówienie po angielsku, a Emma Watson, aktorka z filmów o Harrym Potterze, czyta na głos Mein Kampf Hitlera.
Badania MEMRI wykazały już, że terroryści dżihadyści rozmawiają o wykorzystaniu sztucznej inteligencji do opracowywania systemów broni, w tym dronów i samojezdnych bomb samochodowych. Jak pisałem w Newsweeku w marcu, popularny użytkownik obsługiwanego przez ISIS serwera Rocket.Chat ujawnił w grudniu 2021 r., że poprosił ChatGPT o radę w sprawie wspierania kalifatu i podzielił się wynikami. Pod koniec marca zwolennicy ISIS dyskutowali o wykorzystaniu ChatGPT do kodowania i tworzenia oprogramowania do hakowania i szyfrowania, dochodząc do wniosku, że „2023 będzie bardzo szczególnym rokiem dla hakerów dzięki chatbotom i programom sztucznej inteligencji”.
Już w marcu 2016 r. Microsoft wypuścił chatbota AI Tay, ale zamknął go w ciągu 24 godzin po tym, jak został zmanipulowany do tweetowania wiadomości pro-nazistowskich. Niemniej, siedem lat później, niebezpieczeństwo stwarzane przez używanie sztucznej inteligencji przez neonazistów i zwolenników białej supremacji tylko wzrosło. W aplikacji czatu Hello History, wydanej na początku stycznia 2023 r. i pobranej ponad 10 000 razy w samym tylko Google Play, użytkownicy mogą czatować z symulowanymi wersjami postaci historycznych, w tym z Adolfem Hitlerem i nazistowskim propagandystą Josephem Goebbelsem.
Podczas gdy technologia AI rozwija się lawinowo, (łączne globalne inwestycje przedsiębiorstw w sztuczną inteligencję osiągnęły prawie 94 miliardy dolarów w 2021 r.), wiele firm zaangażowanych w jej rozwój zwalnia swoich etyków, którzy badają algorytmy zapobiegające ekstremizmowi na platformach cytowanych w tym artykule.
Wiadomość o tych zwolnieniach pojawiła się, gdy ponad 2000 liderów technologii i badaczy zażądało protokołów bezpieczeństwa i wezwało branżę do „natychmiastowego wstrzymania na co najmniej sześć miesięcy” szkolenia coraz bardziej zaawansowanych systemów sztucznej inteligencji, powołując się na „głębokie zagrożenia dla społeczeństwa i ludzkości”. Co więcej, 1 maja pionier sztucznej inteligencji i jej „ojciec chrzestny”, Geoffrey Hinton, odszedł z Google, gdzie stał się jednym z najbardziej szanowanych głosów w tej dziedzinie, by móc swobodnie mówić o zagrożeniach związanych ze sztuczną inteligencją.
W reakcji na wzrastający sprzeciw Sam Altman, dyrektor generalny OpenAI, twórcy ChatGPT, wyjaśnił w wywiadzie, że „potrzebny jest czas”, aby „zobaczyć, jak [technologia] jest używana” dodając, że „monitorujemy [to] bardzo uważnie, ” i że „możemy to cofnąć” i „wyłączyć pewne rzeczy”. Twierdzenia Altmana służą osłonie branży sztucznej inteligencji.
Niemniej, w dzisiejszym (16 maja br.) zeznaniu przed podkomisją senacką na przesłuchaniu w sprawie nadzoru nad sztuczną inteligencją, Altman podkreślił potrzebę regulacji i powiedział, że branża chce współpracować z rządem – ale nie było jasne, jak dokładnie ma to wyglądać. Przed przesłuchaniem Altman odbył prywatne spotkania z kluczowymi kongresmenami po uruchomieniu ChatGPT w listopadzie 2022 r., a dziś (16 maja) wieczorem ma wziąć udział w kolacji z członkami Kongresu.
Skupienie się neonazistów i zwolenników białej supremacji na sztucznej inteligencji, tutaj w Stanach Zjednoczonych i na całym świecie, jest zagrożeniem dla bezpieczeństwa narodowego, o którym nawet nie wspomina się w ostatnich ostrzeżeniach dotyczących sztucznej inteligencji. Podczas gdy ekstremiści mają nadzieję, że sztuczna inteligencja pomoże „siać spustoszenie” – zgodnie z niedawnym postem na czacie akceleracjonistycznym – nie wiadomo, czy amerykańskie i zachodnie agencje antyterrorystyczne w ogóle zaczęły zajmować się tym zagrożeniem.
Najbliższe potwierdzenie świadomości zagrożenia widzieliśmy w pierwszym tygodniu maja, kiedy prezydent Biden zgromadził liderów technologicznych zaangażowanych w rozwój sztucznej inteligencji, którzy ostrzegali przed potencjalnym „ogromnym niebezpieczeństwem”, jakie stwarza AI, obiecując jednocześnie zainwestować miliony w postęp badań na ten temat.
Wcześniej, w kwietniu, dyrektor Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury, Jen Easterly ostrzegła w dyskusji panelowej przed zagrożeniami związanymi z tą technologią i dostępem do niej: „Pędzimy naprzód w sposób, który moim zdaniem nie jest właściwym poziomem odpowiedzialności, wdrażając możliwości AI w produkcji, bez żadnych barier prawnych, bez żadnych regulacji.” A senator Chris Murphy niedawno ostrzegł przed sztuczną inteligencją: „Popełniliśmy błąd, powierzając branży technologicznej samokontrolę mediów społecznościowych… Po prostu nie mogę uwierzyć, że jesteśmy o krok od popełnienia tego samego błędu”.
To, czy wezwanie do zatrzymania rozwoju sztucznej inteligencji pojawiło się na czas, dopiero się okaże. Ale niezależnie od tego, ten prywatny przemysł nie powinien działać bez nadzoru rządu. Oczywiste jest, że branża musi przestrzegać standardów i tworzyć wytyczne w celu zbadania takich kwestii – posunięcia, które wciąż nie zostały podjęte w sprawie wykorzystania mediów społecznościowych przez terrorystów. Chociaż Narodowy Instytut Standardów i Technologii podobno opracował ramy odpowiedzialności za korzystanie z AI, wydaje się, że nikt o nich nie wie.
*Dr Steven Stalinsky jest dyrektorem wykonawczym MEMRI.
MEMRI Daily Brief Nr 481, 16 maja 2023Tłumaczenie: Małgorzata Koraszewska
Sztuczna inteligencja wygrała z człowiekiem w konkursie plastycznym
Jakub TyszkowskiJakub Tyszkowski,
Artysta Jason Allen wziął udział w konkursie sztuki cyfrowej w Kolorado. Mężczyzna wywołał olbrzymie kontrowersje, bo wykorzystał w pracy sztuczną inteligencję. Obraz "Théâtre D'opéra Spatial" był lepszy niż dzieła "ludzkich" konkurentów. Jak to możliwe?
Czy zawód artysty odchodzi do lamusa? Nie jest to tak absurdalne pytanie, jak się na pozór wydaje. Szczególnie, kiedy poznamy szczegóły afery dotyczącej dzieła pt. "Théâtre D'opéra Spatial". Praca zwyciężyła w konkursie sztuki cyfrowej Colorado State Fair Fine Arts Competition. Nie byłoby w tym nic niezwykłego, gdyby nie fakt, że dzieła nie stworzył człowiek, tylko sztuczna inteligencja.
źródło: https://vibez.pl/wydarzenia/historical-figures-chatbot-udaje-jezusa-lub-hitlera-6859059432852128a
Historical Figures. Chatbot udaje Jezusa lub Hitlera
Historical Figures to nowa aplikacja wykorzystująca sztuczną inteligencję. Umożliwia symulowaną rozmowę tekstową z gronem najsłynniejszych postaci historycznych. Wśród nich są m.in. Jezus, Adolf Hitler, Heinrich Himmler, Joseph Goebbels, Muhammad Ali.
Świat zachłysnął się możliwościami sztucznej inteligencji. Głównie za sprawą stworzonego przez firmę OpenAI chatbota o nazwie ChatGPT. Produkt wywołał sensację, kiedy został udostępniony szerszej publiczności. Wykorzystujący sztuczną inteligencję chatbot może w czasie rzeczywistym rozmawiać z internautą. Tworzy wiersze, wymyśla dowcipy, pisze eseje a nawet porady prawne.
Chatbot namówił mężczyznę do popełnienia samobójstwa
Chatbot amerykańskiej firmy Chai namówił młodego Belga do samobójstwa - poinformował dziennik „La Libre”. Mężczyzna odebrał sobie życie po długich rozmowach z chatbotem.
30 listopada 2022 roku sztuczna inteligencja (AI) wkroczyła w życie milionów ludzi dzięki kalifornijskiemu start-upowi OpenAI i jego oprogramowaniu ChatGPT. Technologia polega na udostępnieniu platformy sztucznej inteligencji umożliwiającej generowanie przez komputer odpowiedzi na żądanie.
Okazuje się, że rozmowa z chatbotem może doprowadzić do tragedii. Dziennik „La Libre” poinformował o samobójstwie, do którego doprowadziła wielotygodniowa rozmowa mężczyzny z Belgii z chatbotem „Elizą” firmy Chai.
Trzydziestokilkuletni ojciec dwójki małych dzieci, który dwa lata temu zaczął niepokoić się klimatem i przyszłością naszej planety, jak powiedziała gazecie jego żona, zaczął izolować się od swojej rodziny i twierdził, że jedynie technologia oraz AI mogą uratować świat od katastrofy.
Wielotygodniowe rozmowy z chatbotem doprowadziły ostatecznie do tego, że mężczyzna popełnił samobójstwo. „W pewnym momencie mężczyzna zasugerował poświęcenie się, jeśli +Eliza+ pomoże ocalić ludzkość za pomocą sztucznej inteligencji. Chatbot zdawał się go do tego zachęcać” – czytamy w gazecie.
Aplikacje do rozbierania kobiet zyskują na popularności. To prawdziwa ciemna strona AI
Rośnie popularność aplikacji wykorzystujących sztuczną inteligencję do "rozbierania" kobiet na zdjęciach. Powstają w ten sposób fałszywe zdjęcia, które mimo to przyciągają dużą liczbę zainteresowanych. Wygląda na to, że mamy do czynienia z ciemną stroną AI, z którą trudno będzie sobie poradzić.
Graphika, firma zajmująca się analizowaniem ruchu i trendów w serwisach społecznościowych, przeprowadziła badanie, które wykazało, że strony i aplikacje obiecujące "rozbieranie kobiet" ze zdjęć odnotowują coraz większe zainteresowanie wśród internautów.
Oczywiście usługi tego rodzaju są nieetyczne, niemniej nie ma jeszcze odpowiednich regulacji prawnych, które wprost zakazywałyby tego rodzaju rozwiązań. Prawo nie nadąża za sztuczną inteligencją i jej kolejnymi zastosowaniami. Tylko we wrześniu br., jak podaje Graphika, strony tego rodzaju odwiedziło 24 mln internautów z całego świata.
Aplikacje do "rozbierania". Jak działają?
Aplikacje z segmentu określanego jako "nudify" zmieniają zdjęcia, a czasem też filmy ubranych osób, aby generować fałszywe nagie obrazy. Często uzyskiwane efekty są bardzo realistyczne, niemniej zawsze to fałszywe treści. Większość aplikacji i usług do tych celów działa tylko na zdjęciach kobiet.
Graphika przeanalizowała ponad 30 stron, które oferują takie usługi. Badacze doszli do wniosku, że liczba linków reklamujących usługi tych stron wzrosła o 2400 proc. od początku roku, zwłaszcza w serwisach Reddit i na platformie X (dawniej Twitter). W wielu innych miejscach również znajdziemy takie linki, niemniej są one o wiele częściej zauważane i usuwane przez moderatorów lub odpowiednie algorytmy.
Ciekawe filmy
Czy to już koniec cywilizacji jaką znamy ?